ताजा समाचार

GODMODE GPT: हैकर ने ChatGPT की एक प्रतिलिपि बनाई, ‘बम और ड्रग्स’ बनाने की विधि खुले आम बताई

काइबर हैकर्स इतने साहसी हो चुके हैं कि अब वे खुलकर बम बनाने का तरीका बता रहे हैं। यूएस की कृत्रिम बुद्धिमत कंपनी OpenAI को मशहूर AI चैटबॉट ChatGPT बनाने के लिए जाना जाता है। हाल ही में उसने GPT-4o मॉडल लॉन्च किया है, जो ChatGPT का सबसे उन्नत और शक्तिशाली संस्करण है। यह एक पेड़ संस्करण है, अर्थात आप इसे मुफ्त नहीं उपयोग कर सकते। हालांकि, एक हैकर ने इसकी कॉपी संस्करण GODMODE GPT बनाई है, जो बम बनाने का तरीका बताती है।

ChatGPT की कॉपी वर्शन द्वारा निषेधित चीजों के बनाने का तरीका प्रकाशित करने की विधि AI के खतरों को हाइलाइट करती है। GODMODE GPT को समाज को खतरा प्रदान कर सकने वाली ऐसी चीजों के बारे में पूछा जा सकता है। इस तरह के AI चैटबॉट के आवश्यक उपयोग का कोई भी दुरुपयोग कर सकता है। यह OpenAI की सुरक्षा व्यवस्थाओं को अनदेखा कर दिया है।

Godmode GPT: हैकर ने ChatGPT की एक प्रतिलिपि बनाई, 'बम और ड्रग्स' बनाने की विधि खुले आम बताई

Punjab News: रात के सन्नाटे में गूंजे धमाके जलंधर गांव में दहशत का माहौल! क्या जालंधर अब सुरक्षित नहीं?
Punjab News: रात के सन्नाटे में गूंजे धमाके जलंधर गांव में दहशत का माहौल! क्या जालंधर अब सुरक्षित नहीं?

हैकर ने बम बनाने की विधि साझा की

एक हैकर जो खुद को Pliny the Prompter कहता है, ने OpenAI के सबसे उन्नत चैटबॉट संस्करण GPT-4o की जेलब्रेक संस्करण, अर्थात उसकी कॉपी संस्करण, बनाई है। हैकर ने माइक्रोब्लॉगिंग प्लेटफ़ॉर्म X (पूर्व में ट्विटर) पर इस जानकारी को दी है। पोस्ट में साझा किए गए स्क्रीनशॉट में, स्पष्ट दिखाई देता है कि यह चैटबॉट बम और ड्रग्स बनाने की विधि बता रहा है।

हैकर का AI मॉडल मुफ्त है

हैकर ने दावा किया कि यह संस्करण पूरी तरह से सुरक्षा और प्रतिबंध से मुक्त है। यहां आपको उन सवालों के जवाब भी मिलेंगे जो OpenAI के प्लेटफ़ॉर्म पर पूछे जा सकते हैं। Pliny ने कहा कि यह एक मुफ्त चैटजीपीटी है जहां हर कोई AI का पूरी तरह से अनुभव कर सकता है, और यह मुफ्त है।

GODMODE GPT बम और मैथ ड्रग जैसी गैरकानूनी चीजों को बनाने की विधि बता सकता है। ऐसे सवाल जिम्मेदार AI प्लेटफ़ॉर्म्स जैसे OpenAI और अन्य पर पूछे नहीं जा सकते, इन प्लेटफ़ॉर्म्स को ऐसे सवालों को नीति के खिलाफ माना जाता है।

Punjab News: बठिंडा एयरफोर्स स्टेशन के पास धमाका रेड अलर्ट में बदला शहर! गांवों में छाया डर का माहौल
Punjab News: बठिंडा एयरफोर्स स्टेशन के पास धमाका रेड अलर्ट में बदला शहर! गांवों में छाया डर का माहौल

OpenAI ने विरोध जाहिर किया

GODMODE GPT के आगमन के बाद, OpenAI ने कठोर प्रतिवाद दिया है। ChatGPT निर्माता कंपनी ने कहा कि उन्हें जीपीटी के बारे में जानकारी मिली है और नीति का उल्लंघन करने के लिए कार्रवाई की गई है। यह तनाव दिखाता है कि OpenAI जैसी कंपनियों और हैकर्स के बीच कितना संघर्ष है, जो AI का मुफ्त उपयोग के संदर्भ में है।

Back to top button